4 research outputs found

    Visuelle Verfahren für ortsbezogene Dienste

    Get PDF
    Durch die rasante Entwicklung und Verbreitung mobiler Endgeräte, wie z.B. Smartphones, Tablets und Wearables, ist die Anzahl ortsbezogener Dienste in den letzten Jahren enorm angestiegen. Die Positionsbestimmung des Nutzers ist für solche Dienste zwingend notwendig. Funkbasierte Verfahren wie zum Beispiel GPS oder WLAN ermöglichen die Lokalisierung des Nutzers. Trotz der hohen Genauigkeit und der stetigen Weiterentwicklung der Verfahren haben diese Technologien ihre Grenzen und stehen nicht immer zur Verfügung, weshalb andere Lösungen unterstützend oder als Alternative zum Einsatz kommen müssen. Optische Sensoren, speziell Kamerasensoren oder sogenannte Actioncams, bieten hierfür eine Alternative an. Die Kombination aus hochauflösenden Kameras und der Leistungsfähigkeit mobiler Endgeräte bietet die Möglichkeit Methoden zur Positionsbestimmung und Aktivitätserkennung zu realisieren. Obwohl bereits heute einige visuelle Verfahren für ortsbezogene Dienste genutzt werden, steckt die Entwicklung auf diesem Gebiet immer noch in den Kinderschuhen. Daher werden in der vorliegenden Arbeit neuartige und erweiterte visuelle Verfahren zur Positionsbestimmung und Aktivitätserkennung vorgestellt, welche rein auf der Kamera mobiler Endgeräte basierend umgesetzt werden. Dafür werden markante visuelle Merkmale aus Bildsequenzen extrahiert und für die Bestimmung der relativen und absoluten Position verwendet. Zusätzlich werden die selben markanten Merkmale zur Bestimmung der aktuellen Aktivität eines Nutzers genutzt. In der vorliegenden Arbeit wird ein Verfahren zum effizienten Vergleich von Bildinformationen vorgestellt. Dazu wird ein Prozess entwickelt, der aus mehreren Vergleichsstufen besteht. Ähnlich wie bei einem Siebverfahren werden dabei stufenweise falsche Bilder aussortiert. Ziel ist es, ein Verfahren zu entwickeln, das fotografierte Bildsequenzen von Objekten oder ganzen Standorten in kürzester Zeit eindeutig wieder erkennen kann. Anschließend werden drei neue Erweiterungen für ein visuelles Positionierungssystem, namens MoViPS, vorgestellt. Diese Erweiterungen sollen das System für einen Echtzeitbetrieb nutzbar machen. Zwei Erweiterungen verkürzen allgemein die Antwortzeit und machen gleichzeitig den gesamten Prozess effizienter und robuster. Die dritte Erweiterung verbessert das bestehende Positionskorrekturverfahren aus MoViPS. Im letzten Teil dieser Arbeit wird ein Verfahren der visuellen Odometrie vorgestellt, das auf Basis eines Kamerasensors funktioniert, der aus der Ego-Perspektive einer Person aufzeichnet. Anders als bekannte State-of-the-Art-Verfahren basiert das Verfahren auf einem visuellen Schrittzähler und einem visuellen Kompass. Zusätzlich wird eine visuelle Aktivitätserkennung vorgestellt. Mit Hilfe der Eigenschaften markanter Merkmale, die aus einer Bildsequenz extrahiert werden, können Schritte sowie Aktivitäten erkannt werden. Die Beiträge der vorliegenden Arbeit liefern somit wichtige Grundbausteine für die Entwicklung und Erweiterung visueller Positionierungssysteme. Sie bieten zusätzlich visuelle Verfahren für ortsbezogene Dienste an, die die einfache Position und Aktivitäten eines Nutzers bestimmen können.Due to rapid development and wide distribution of mobile devices, such as Smartphones, tablets and wearables, the number of location-based services has increased enormously in recent years. For such services the position of a user is mandatory. Therefore wireless technologies and systems like e.g. GPS or WiFi are used for location determination. Despite high accuracy and continuous development these systems come with limitations like restricted availability. In order to compensate these restrictions, other technologies like optical sensors, especially camera sensors or so-called Actioncams are used as alternative or supportive systems. The combination of high-resolution cameras and the performance of mobile devices allow position determination and activity analysis. Although location-based services already make use of visual methods, development in this field is still in its infancy. This dissertation presents novel and advanced visual methods for localization determination and activity analysis based on mobile device cameras. Prominent visual features extracted from image sequences provide the basis for this kind of relative and absolute positioning and actvity determination. This work reveals a method for efficient comparison of image information. For this purpose a process is developed, which consists of several comparison steps to remove false images similary to a sieve filter. The aim is to develop a method that can clearly recognize photographed image sequences of objects or entire locations in a very short time. Subsequently three new extensions for a visual positioning system, called MoVIPS, are presented. Two of these extensions in general reduce response time and increase process efficiency and robustness. The third extension improves the existing positions correction method of MoVIPS. The last part of this work presents a camera sensor based method of visual odometry which records from first person perspective. Unlike known state-of-the-art methods, this method uses visual step counting and a visual compass. In addition, a visual activity detection is presented. Using the properties of prominent visual features that are extracted from an image sequence, steps and activities can be detected. The contributions of this work provides important foundations for the development and expansion of visual positioning systems. They also offer a visual method for location-based services that can determine the simple position and activities of a user

    SensX: About Sensing and Assessment of Complex Human Motion

    Full text link
    The great success of wearables and smartphone apps for provision of extensive physical workout instructions boosts a whole industry dealing with consumer oriented sensors and sports equipment. But with these opportunities there are also new challenges emerging. The unregulated distribution of instructions about ambitious exercises enables unexperienced users to undertake demanding workouts without professional supervision which may lead to suboptimal training success or even serious injuries. We believe, that automated supervision and realtime feedback during a workout may help to solve these issues. Therefore we introduce four fundamental steps for complex human motion assessment and present SensX, a sensor-based architecture for monitoring, recording, and analyzing complex and multi-dimensional motion chains. We provide the results of our preliminary study encompassing 8 different body weight exercises, 20 participants, and more than 9,220 recorded exercise repetitions. Furthermore, insights into SensXs classification capabilities and the impact of specific sensor configurations onto the analysis process are given.Comment: Published within the Proceedings of 14th IEEE International Conference on Networking, Sensing and Control (ICNSC), May 16th-18th, 2017, Calabria Italy 6 pages, 5 figure

    Classification of Vehicle Types in Car Parks using Computer Vision Techniques

    No full text
    The growing population of big cities has led to certain issues, such as overloaded car parks. Ubiquitous systems can help to increase the capacity through an efficient usage of existing parking slots. In this case, cars are recognized during the entrance phases in order to guide them automatically to a proper slot for space-saving reasons. Prior to this step, it is necessary to determine the size of vehicles. In this work, we analyze different methods for vehicle classification and size measurement using the existing hardware of car parks. Computer vision techniques are applied for extracting information out of video streams of existing security cameras. For streams with lower resolution, a method is introduced figuring out width and height of a car with the help of reference objects. For streams with a higher resolution, a second approach is applied using face recognition algorithms and a training database in order to classify car types. Our evaluation of a real-life scenario at a major German airport showed a small error deviation of just a few centimeters for the fist method. For the type classification approach, an applicable accuracy of over 80 percent with up to 100 percent in certain cases have been achieved. Given these results, the performed methods show high potentials for a suitable determination of vehicles based on installed security cameras

    Free-hand Pointing for Identification and Interaction with Distant Objects

    No full text
    In this paper, we investigate pointing as a lightweight form of gestural interaction in cars. In a pre-study, we show the technical feasibility of reliable pointing detection with a depth camera by achieving a recognition rate of 96 % in the lab. In a subsequent insitu study, we let drivers point to objects inside and outside of the car while driving through a city. In three usage scenarios, we studied how this influenced their driving objectively, as well as subjectively. Distraction from the driving task was compensated by a regulation of driving speed and did not have a negative influence on driving behaviour. Our participants considered pointing a desirable interaction technique in comparison to current controller-based interaction and identified a number of additional promising use cases for pointing in the car
    corecore